Kullback-Leibler information
- Kullback-Leibler information
French\ \ nombre d'informations de Kullback-Leibler
German\ \ Kullback-Leibler-Informationszahl
Dutch\ \ informatiegetal van Kullback-Leibler
Italian\ \ numero di informazione di Kullback-Leibler
Spanish\ \ número de información de Kullback-Leibler
Catalan\ \ informació de Kullback-Leibler
Portuguese\ \ informação de Kullback-Leibler
Romanian\ \ -
Danish\ \ Kullback-Leibler information
Norwegian\ \ -
Swedish\ \ -
Greek\ \ πληροφορία των Kullback-Leibler
Finnish\ \ Kullbackin-Leiblerin informaatio
Hungarian\ \ Kullback-Leibler-féle információs szám
Turkish\ \ Kullback-Leibler bilgisi
Estonian\ \ Kullback-Leibleri informatsioon
Lithuanian\ \ Kullback ir Leibler informacijos kiekis; Kullback ir Leibler informacijos indeksas; Kulbako ir Leiblerio informacijos kiekis; Kulbako ir Leiblerio informacijos indeksas
Slovenian\ \ -
Polish\ \ liczba informacji Kullbacka-Lieblera
Russian\ \ информация Куллбека-Лейблера
Ukrainian\ \ -
Serbian\ \ -
Icelandic\ \ Kullback-Leibler upplýsingar
Euskara\ \ Kullback-Leibler informazioa
Farsi\ \ -
Persian-Farsi\ \ اطلاع کولبک-ليبلر
Arabic\ \ المعلومات لكولباش وليبلر
Afrikaans\ \ Kullback-Leibler-inligtingsgetal
Chinese\ \ 库 尔 贝 克 ― 莱 伯 尔 信 息 数
Korean\ \ 쿨백-라이블러 정보
Statistical terms.
2014.
Look at other dictionaries:
Kullback-Leibler-Information — Die Begriffe Kullback Leibler Divergenz (kurz KL Divergenz), Kullback Leibler Entropie, Kullback Leibler Information oder Kullback Leibler Abstand (nach Solomon Kullback und Richard Leibler) bezeichnen ein Maß für die Unterschiedlichkeit zweier… … Deutsch Wikipedia
Kullback–Leibler divergence — In probability theory and information theory, the Kullback–Leibler divergence[1][2][3] (also information divergence, information gain, relative entropy, or KLIC) is a non symmetric measure of the difference between two probability distributions P … Wikipedia
Kullback-Leibler-Abstand — Die Begriffe Kullback Leibler Divergenz (kurz KL Divergenz), Kullback Leibler Entropie, Kullback Leibler Information oder Kullback Leibler Abstand (nach Solomon Kullback und Richard Leibler) bezeichnen ein Maß für die Unterschiedlichkeit zweier… … Deutsch Wikipedia
Kullback-Leibler-Distanz — Die Begriffe Kullback Leibler Divergenz (kurz KL Divergenz), Kullback Leibler Entropie, Kullback Leibler Information oder Kullback Leibler Abstand (nach Solomon Kullback und Richard Leibler) bezeichnen ein Maß für die Unterschiedlichkeit zweier… … Deutsch Wikipedia
Kullback-Leibler-Entropie — Die Begriffe Kullback Leibler Divergenz (kurz KL Divergenz), Kullback Leibler Entropie, Kullback Leibler Information oder Kullback Leibler Abstand (nach Solomon Kullback und Richard Leibler) bezeichnen ein Maß für die Unterschiedlichkeit zweier… … Deutsch Wikipedia
Kullback-Leibler-Divergenz — Die Begriffe Kullback Leibler Divergenz (kurz KL Divergenz), Kullback Leibler Entropie, Kullback Leibler Information oder Kullback Leibler Abstand (nach Solomon Kullback und Richard Leibler) bezeichnen ein Maß für die Unterschiedlichkeit zweier… … Deutsch Wikipedia
Divergence de Kullback-Leibler — En théorie des probabilités et en théorie de l information, la divergence de Kullback Leibler[1], [2] (ou divergence K L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités P et Q. Elle doit son… … Wikipédia en Français
Divergence De Kullback-Leibler — En théorie des probabilités et en théorie de l information, la divergence de Kullback Leibler[1] [2] (ou divergence K L ou encore Entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités P et Q. Elle doit son… … Wikipédia en Français
Divergence de kullback-leibler — En théorie des probabilités et en théorie de l information, la divergence de Kullback Leibler[1] [2] (ou divergence K L ou encore Entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités P et Q. Elle doit son… … Wikipédia en Français
Information Mutuelle — Dans la théorie des probabilités et la théorie de l information, l information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L information mutuelle d un… … Wikipédia en Français
Information theory — Not to be confused with Information science. Information theory is a branch of applied mathematics and electrical engineering involving the quantification of information. Information theory was developed by Claude E. Shannon to find fundamental… … Wikipedia